对智能的信念

Belief in Intelligence

我不知道加里·卡斯帕罗夫在一盘棋中会走哪些步。那么,我相信「卡斯帕罗夫是一位极其聪明的国际象棋选手」这一信念的经验内容是什么?我的信念让我预期会发生哪些现实世界的体验?这是不是一种巧妙伪装过的彻底无知?

为了让这个两难更加尖锐,假设卡斯帕罗夫与某位只是国际象棋特级大师、但并不在世界冠军候选行列的 G 先生对弈。我的水平太低,根本分辨不出这两种棋力层级之间的差别。当我尝试猜卡斯帕罗夫下一步、或 G 先生下一步时,我唯一能做的,就是用自己贫乏的棋知识去猜「最佳的一步棋」。于是,在任何特定棋局中,我对卡斯帕罗夫的走法与对 G 先生的走法都会给出完全相同的预测。那么,我相信「卡斯帕罗夫比 G 先生更强」这一信念的经验内容究竟是什么?

我的信念的经验内容,是一个可检验、可证伪的预测:最终的棋局局面将落在「卡斯帕罗夫获胜」这类棋局之中,而不是「和棋」或「G 先生获胜」这两类。(把认输也算作一种合法走法:它会导向一个被归类为失败的棋局局面。)我认为卡斯帕罗夫「更强」到什么程度,体现在我把多少概率质量集中到「卡斯帕罗夫获胜」这一结果类别上,而不是分配给「和棋」与「G 先生获胜」这些类别。就其指涉的对象而言,这些类别极其模糊,因为它们对应的是庞大的可能棋局空间——但「卡斯帕罗夫获胜」确实比最大熵更具体,因为它可以被大量棋局局面明确证伪

卡斯帕罗夫这盘棋的结果之所以可预测,是因为我知道并理解卡斯帕罗夫的目标。在棋盘的边界之内,我了解卡斯帕罗夫的动机——我知道他的成功标准、他的效用函数、他作为一个优化过程所追逐的目标。我知道卡斯帕罗夫最终试图把未来引向哪里,并且我预期他有足够的能力到达那里,尽管我并不太预期他会如何做到这一点。

设想我来到一座遥远的城市,一位当地朋友自愿开车送我去机场。我不熟悉这片区域。每当朋友驶近一个路口时,我都不知道他会左转、右转,还是直行。即便我们正接近某一个具体路口,我也无法预测朋友会怎么走——更不用说提前预测整串转弯序列了。

但我仍能预测朋友那些不可预测行动的结果:我们会到达机场。即使朋友家在城里的另一个位置,以至于他要走一条完全不同的转弯序列,我也会同样自信地预测我们会到达机场。我甚至在上车之前、很久以前就能做出这个预测。我的航班很快就要起飞,时间不容浪费;如果我不能有把握地预测汽车会沿着一条不可预测的路径抵达机场,我一开始就不会上车。

从科学的角度看,这难道不是一种非同寻常的处境吗?我能够预测一个过程的结果,却无法预测这个过程的任何中间步骤。

这怎么可能呢?通常,人们通过想象当下,然后把可视化在时间中向前推进来做预测。如果你想要一个精确的太阳系模型,且要把行星摄动纳入考虑,你就必须从一个包含所有主要天体的模型开始,把该模型一步一步地向前运行。

有时,较简单的问题有闭式解:在时间 T 处计算未来所需的工作量,与 T 的大小无关。一枚硬币放在桌上,每过一分钟就翻面一次。硬币起初是正面朝上。一百分钟后它会朝哪一面?显然,你并没有通过在脑海中逐步可视化一百个中间步骤来回答这个问题。你使用了一个能够预测结果的闭式解,而它同样也能用来预测任何一个中间步骤。

但当朋友开车送我去机场时,我却能用一种奇怪的模型成功预测结果,而这个模型根本无法用来预测任何一个中间步骤。我的模型甚至不需要我输入初始条件——我不必知道我们在城里从哪里出发!

我确实需要了解朋友的一些情况。我必须知道朋友希望我赶上航班。我必须相信朋友是一个足够好的规划者,能够(如果他愿意的话)成功把我开到机场。这些都是朋友初始状态的属性——正是这些属性让我能预测最终目的地,尽管我预测不了任何一个中途转弯。

我还必须相信朋友对这座城市足够熟悉,能够成功驾驶。这可以被看作朋友与城市之间的一种关系;因此,是两者共同的属性。但这是一种极其抽象的属性,它并不要求对城市本身或朋友对城市的知识拥有任何具体了解。

这就是我看待自己毕生投入的研究对象的一种方式——这些把我们置于如此奇特的认知位置的非凡处境。而我的工作在某种意义上,就是在解开我们能够拥有的那种奇怪而抽象的知识究竟是什么形式:在不知道行动的情况下,我们仍能有理由地知道后果。

「智能」这个词太狭窄,无法以充分一般的方式描述这些非凡处境。我宁愿称之为「优化过程」。例如,对生物自然选择的研究也伴随着类似的处境;我们无法预测下一次观察到的生物体会呈现出怎样的具体形态。

但我的专长,正是那类被称为「智能」的优化过程;而更窄一点,是一种特定的智能——「友好型人工智能」(Friendly Artificial Intelligence)。我希望,我能对它获得尤其精确的抽象知识。